Гибридная модель от команды Qwen, объединяющая передовые мультимодальные возможности с исключительной эффективностью благодаря архитектуре Gated DeltaNet и разреженных экспертов (MoE). При общем объеме в 397 миллиардов параметров модель активирует лишь 17 миллиардов за токен, обеспечивая производительность на широком спектре задач — от сложных математических рассуждений до мультимодального понимания и создания агентов.
Модель для задачи редактирования изображений, обеспечивающая высокую точность, качество и консистентность в различных сценариях.
Флагманская модель серии, достигшая передового уровня производительности (SOTA) в программировании, агентном использовании инструментов и реальных практических «офисных» кейсах. Благодаря масштабному обучению с подкреплением (RL) и инновационному фреймворку Forge, M2.5 не только решает сложнейшие задачи, но и делает это с высокой точностью и скоростью.
Фундаментальная open-source модель, разработанная для решения сложных задач и продолжительных агентных сценариев. Архитектура MoE c 754B параметров (40B активных), разреженное вниманием (DSA), инновационная RL-инфраструктура slime и фокус на практическую полезность позволяют GLM-5 вывести взаимодействие с ИИ далеко за рамки простого чата, превращая его в полноценного ассистента исполнителя
Эффективная MoE-модель с 80B параметров (активно 3B), специально созданная для агентов, ориентированных на программирование. Модель отличается высокой эффективностью инференса, длинным контекстом (262K токенов) и лучшей в своём классе работой с различными форматами вызовов инструментов, что делает её идеальным выбором для развертывания интеллектуальных ассистентов разработчика.
Модель для генерации и редактирования изображений на основе текста и референсных изображений. Она разработана Tencent и представляет собой крупнейшую открытую модель для генерации изображений с использованием архитектуры Mixture of Experts (MoE). Модель объединяет текст и изображения в едином автокорректируемом фреймворке, что обеспечивает высокую контекстную целостность и детализацию. Всего модель содержит 80 миллиардов параметров (активируется 13 млрд на токен) и использует 64 эксперта (experts) для повышения производительности.
Инновационная мультимодальная модель для оптического распознавания символов (OCR), которая имитирует человеческое визуальное восприятие. Вместо стандартного построчного сканирования изображения, её новый энкодер DeepEncoder V2 использует компактную языковую модель для динамического переупорядочивания визуальных токенов, следуя семантической логике документа. Это позволяет значительно улучшить понимание сложных макетов, таблиц и формул, сохранив при этом высокую эффективность предыдущей версии.
Модель предназначена для генерации видео на основе изображений (Image-to-Video). Она относится к категории «World Model» и лицензирована под Apache-2.0, что обеспечивает открытый доступ к коду и моделям.
Это базовая модель семейства ⚡️-Image, разработанная для высокого качества генерации изображений, широкого охвата стилей и точного соответствия текстовым запросам. Она предназначена для профессионального использования, творческих задач и исследований, в отличие от ускоренной версии Z-Image-Turbo.
30-миллиардная MoE-модель с активацией всего ~3.6B параметров на токен, обеспечивающая рекордную производительность в своем классе при минимальных требованиях к ресурсам (~24 ГБ VRAM). Модель лидирует в агентных задачах и программировании, поддерживает 200K контекст и оптимизирована для лёгкого локального развёртывания.
Модель генерации изображения по текстовому описанию и многореференсного редактирования изображений в одном компактном архитектурном решении, разработанное для вывода в реальном времени и минимальных требований к оборудованию. Включает 4 миллиарда параметров и работает на потребительских GPU (например, NVIDIA RTX 3090/4070) с 13 ГБ VRAM, обеспечивая вывод изображений менее чем за секунду.
Модель для генерации и редактирования изображений, объединяющая в одной архитектуре обе задачи (генерацию изображения по текстовому описанию и многореференсное редактирование изображений). Это 9-миллиардный rectified flow transformer, совмещенный с 8-миллиардным текстовым эмбеддером Qwen3. Модель обеспечивает высокое качество при скорости вывода менее чем за полсекунды.
Модель генерации изображений с гибридной архитектурой, объединяющей Autoregressive generator и Diffusion Decoder. Оно преуспевает в сценариях с информационно наполненным текстом и сложной семантикой, обеспечивая высокую детализацию и точность отображения информации.
Открытая модель, построенная на архитектуре Mixture-of-Experts с 1T параметров, из которых на токен активируются 32B. В ней разработчики реализовали парадигму «visual agentic intelligence» — сочетание визуального восприятия, рассуждений и автономных агентов. Модель мультимодальна, представлена в нативной INT4‑квантизации и включает уникальный механизм Agent Swarm обеспечивающий оркестрацию и параллельную работу до 100 субагентов, что позволяет повышать качество и снижать время выполнения сложных задач в среднем в 4.5 раза.
Это обновленная версия текстово-визуальной модели Qwen-Image, выпущенная в декабре. Она улучшена по сравнению с базовой моделью, выпущенной в августе, и предназначена для генерации изображений по текстовым запросам.
Продвинутая MoE-модель с агентскими возможностями, созданная как интеллектуальный партнёр для программирования. Её уникальность — в системе многоуровневого «мышления», которая обеспечивает беспрецедентную стабильность и контроль при выполнении сложных задач. Идеальный выбор для разработки, автоматизации и создания визуального контента программными средствами.
Эволюционное обновление модели M2, значительно усилившее способности модели к программированию. Благодаря масштабному обучению с подкреплением, механизму полного внимания и новому подходу к оценке эффективности на реальных задачах (VIBE Bench) M2.1 демонстрирует глубокое понимание кода и SOTA для ИИ-агентов, решающих реальные инженерные задачи.
Это улучшенная версия модели Qwen-Image-Edit-2509, разработанная для задач редактирования изображений.
Модель от компании NVIDIA с 31,6B параметров (3,5B активных) специально оптимизированная для высокопроизводительных агентских систем. Модель использует гибридную архитектуру Mamba-Transformer MoE, обеспечивающую одновременно экономию памяти, высокую пропускную способность, рассуждения и точность ответов и на контекстах до 1М токенов.
Мультимодальная модель с 106B параметров, архитектурой MoE и контекстом 128K токенов. Её ключевая особенность заключается в нативной поддержке вызова инструментов, позволяющей напрямую работать с изображениями как входными и выходными данными, что делает её идеальной платформой для создания сложных AI-агентов для анализа документов, визуального поиска и автоматизации процесса фронт-энд разработки.